O algoritmo que promove discursos de ódio se torna um bumerangue contra o Facebook

Fonte: Pixabay

Mais Lidos

  • Lula, sua última eleição e seus demônios. Artigo de Antonio Martins

    LER MAIS
  • Vozes de Emaús: Movimento Fé e Política faz história. Artigo de Frei Betto e Claudio Ribeiro

    LER MAIS
  • Parte do Sul Global, incluindo o Brasil, defende que países desenvolvidos abandonem os combustíveis fósseis primeiro. Para Martí Orta, não há espaço para ritmos nacionais distintos na eliminação de petróleo, gás e carvão. O pesquisador afirma que a abertura de novos projetos de exploração ignora os limites definidos pela ciência

    Cancelar contratos fósseis. Não ‘há tempo’ para transição em diferentes velocidades. Entrevista com Martí Orta

    LER MAIS

Revista ihu on-line

Natal. A poesia mística do Menino Deus no Brasil profundo

Edição: 558

Leia mais

O veneno automático e infinito do ódio e suas atualizações no século XXI

Edição: 557

Leia mais

Um caleidoscópio chamado Rio Grande do Sul

Edição: 556

Leia mais

22 Outubro 2021

 

O algoritmo que facilita a circulação de discursos de ódio está se tornando um bumerangue para o Facebook e Instagram, mas algumas denúncias apontam que a empresa de Mark Zuckerberg não decide modificá-lo porque o mecanismo gera interações, mesmo que ataque grupos vulneráveis e contradiga o objetivo de criar uma rede “significativa e saudável”, considera Ezequiel Ipar, diretor do Laboratório de Estudos sobre Democracia e Autoritarismo - LEDA.

A reportagem-entrevista é de Guillermo Lipis, publicada por Telám, 16-10-2021. A tradução é do Cepat.

Os textos que promovem discursos de ódio, pelo que parece, se aprofundaram com a modificação do algoritmo do Facebook, o verdadeiro gestor da interação entre seus usuários.

O assunto ganhou mais força quando a funcionária dessa empresa, Frances Haugen, pediu a regulamentação do gigante das redes sociais a quem acusou, diante de parlamentares dos Estados Unidos, de “financiar seus lucros” com a segurança dos usuários.

Haugen revelou que o Facebook sabe que os seus sites são potencialmente prejudiciais à saúde mental dos jovens. “Quase ninguém sabe o que acontece dentro do Facebook. Omitem informações ao público, a seus acionistas e aos governos”, acrescentou.

Na Argentina, pelo LEDA, da Universidade Nacional de San MartínUNSAM, com pesquisadores do CONICET, Ipar e sua equipe pesquisam essas redes e as consequências da aplicação do algoritmo desenhado por gente de Zuckerberg.

Haugen disse que o Facebook “pode responder e reconhecer de 3 a 5% dos discursos de ódio das mensagens dos 3 bilhões de usuários. Mas parece que os controles funcionam em 50 línguas, e o Facebook tem usuários em 5.500. Ou seja, 5.450 vivem em um far west digital”, sentenciou Ipar.

Como exemplo do discurso de ódio e a falta de controles da rede, em outubro de 2018, The New York Times denunciou que militares birmaneses usaram o Facebook para justificar uma limpeza étnica contra os rohingyas, uma minoria muçulmana, e argumentaram que o islã representa uma ameaça para o budismo.

Ipar também lembrou “casos de incitação à violência interétnica na Etiópia”.

Em novembro de 2019, a BBC reproduziu o depoimento do atleta etíope Haile Gebrselassie, que denunciou o Facebook como responsável pela matança de 78 pessoas devido à “distribuição de notícias falsas”, explicou.

“Começaram a procurar onde o discurso de ódio havia sido gerado e descobriram que foi por meio de postagens no Facebook”, explicou o pesquisador.

“Não foi o rádio ou televisão, nem um ditador falando de um meio de comunicação oficial, foi a partir da capilaridade do Facebook que foi gerada a sensação de medo”, acrescentou.

“Contudo, a forma como o Facebook buscou “resolver esses problemas acabou acentuando-os”, disse sobre a reformulação que fizeram do algoritmo.

Abaixo, as passagens centrais da entrevista com Ipar.

Qual é o objetivo do algoritmo?

Conectar as pessoas e saber o que pode despertar interesse em um usuário, no que poderá colocar a sua atenção. Por isso, é dito que o Facebook domina a atenção dos indivíduos. É isso o que o algoritmo busca: chamar a sua atenção e conectar os usuários.

Como associa essa função do algoritmo com a difusão dos discursos de ódio?

Quando começaram a cair as interações entre indivíduos, em 2017/2018, o Facebook redesenhou seu algoritmo para que, disseram, os usuários tivessem “uma experiência mais saudável e significativa”. O que mostrariam de modo privilegiado não seria mais publicidade, mas o que fosse interessante para seus amigos, para promover mais “likes”, compartilhar mais conteúdos e aumentar o tráfico de comentários.

Foi assim que detectaram que começaram a se destacar os discursos que incitavam o ódio nas interações. Aprofundou-se uma interação relacionada ao narcisismo do ódio, mas não a consideraram porque os algoritmos quantificam a interação e a reação dos usuários, e não a qualidade ou o conteúdo das respostas.

O algoritmo facilita a circulação de mensagens, e os discursos de ódio produziram mais interações na rede. Entre o mais saudável e o mais significativo, o algoritmo promove o significativo para gerar maior tráfego na rede. Sendo assim, é muito provável que o algoritmo do Facebook esteja incitando campanhas de ódio.

O algoritmo avalia a intensidade da circulação das mensagens, sem importar o conteúdo dos mesmos. É um fato matemático sem conotação humana. Por que o Facebook não modifica seu algoritmo?

Porque verificaram que o que mais potencializa a circulação de mensagens são, justamente, as mensagens com conotações de discurso de ódio.

O que fazem com esse dado, sabendo que acabam facilitando tais mensagens?

Estamos exatamente nesse momento. Haugen se deu conta que no Facebook sabiam o que estavam mobilizando com o seu algoritmo e que também estavam dispostos a não fazer nada para modificá-lo. Agora, há uma resposta curiosa do Facebook porque começam a sugerir a necessidade de certa regulamentação estatal, pois entenderam que há algo no próprio espaço digital, que eles criaram, que está intrinsecamente descontrolado e que pode começar a afetar a plataforma e os seus negócios.

Acredito que perceberam que também existe o risco de que uma boa porcentagem de seus usuários se retirem das redes por essa distribuição de discursos de ódio e violência. Eles próprios estão sugerindo que para o Facebook ser “significativo e saudável”, agora, é preciso algum tipo de avaliação e supervisão, saber o que está acontecendo na rede, e uma regulamentação externa.

Mas não estão permitindo essa janela de observação.

Ainda não, e esse é o conflito no qual estamos agora. Por um lado, em que medida – a partir dessa crise – o Facebook tornará públicas as informações que dispõe e em que medida estão dispostos a intervir na rede, conforme seus próprios estudos sugerem. Esses documentos demonstram que existem profissionais no Facebook que já possuem alternativas para mudar a circulação dos discursos de ódio, mas são mudanças estruturais que podem colocar em jogo uma parte do negócio.

Uma de suas equipes estudou os temas da violência, assédio e discurso de ódio no algoritmo e sugeriu retirar a possibilidade de compartilhar conteúdos maliciosos. Não os eliminar, mas que também não possam ser compartilhados. Parece que fizeram um teste e funcionou, mas decidiram não adotar.

O relato diz que esse documento interno chegou às máximas autoridades da empresa e a resposta foi que a solução era muito boa, mas que a deixarão como uma alternativa de emergência. Imagino que se negam a realizar a mudança porque consideram que a violência e o discurso de ódio são um problema social que se expressa na rede social, mas que não é um problema da rede social em si.

 

 

 

Leia mais